深度学习方法在人工智能和机器学习领域几乎所有学科都取得了巨大成功。现在,有迹象表明,人们不再仅仅关注提高模型的识别性能。像“负责任的人工智能”这样的框架现在脱颖而出,它们假定人工智能应用程序具有公平性、可解释性、隐私性和安全性等属性。在本文中,我将特别关注可解释性的概念,将可解释性扩展到包括“信任”,并说明为什么应该进行更多研究来结合可解释人工智能和不确定性量化的方法。为此,我将讨论这两个独立的研究分支,指出它们的方法,并展示它们在提高可信度方面的相关性——可信的质量或状态。已经有“不确定性下的规划”和“不确定性下的决策”等研究领域将已知方法与不确定性相结合,但这些领域要么
主要关键词
![arXiv:2105.11828v1 [cs.AI] 2021 年 5 月 25 日PDF文件第1页](/bimg/0/0361ab3f760387b6986740c87b8a6f3fd8944934.webp)
![arXiv:2105.11828v1 [cs.AI] 2021 年 5 月 25 日PDF文件第2页](/bimg/d/d97356a27027f7f5d519cdabce69478c4b139291.webp)
![arXiv:2105.11828v1 [cs.AI] 2021 年 5 月 25 日PDF文件第3页](/bimg/3/36bb433e46255a6f2ddd50c064ba99eb30eb684c.webp)
![arXiv:2105.11828v1 [cs.AI] 2021 年 5 月 25 日PDF文件第4页](/bimg/6/6dc6e7c8648af273a6de2ae1b09dae77e308323e.webp)
![arXiv:2105.11828v1 [cs.AI] 2021 年 5 月 25 日PDF文件第5页](/bimg/5/5402e35bbbbeae5c68ac9f3598f95523e3ae9ab7.webp)
